OpenAI
設定なしでWeaveでOpenAIモデルを試してみたいですか?LLM Playgroundをお試しください。
トレーシング
開発中も本番環境でも、LLMアプリケーションのトレースを中央データベースに保存することが重要です。これらのトレースは、デバッグに使用し、アプリケーションを改善する際に評価するための難しい例のデータセットを構築するのに役立ちます。 Weaveはopenai python libraryのトレースを自動的にキャプチャできます。 キャプチャを開始するには、weave.init(<project-name>)
を任意のプロジェクト名で呼び出します。
私たちはOpenAI FunctionsおよびOpenAI Assistantsの関数呼び出しツールもキャプチャします。
構造化出力
WeaveはOpenAIでの構造化出力もサポートしています。これはLLMの応答が特定の形式に従うことを確認するのに役立ちます。非同期サポート
WeaveはOpenAIの非同期関数もサポートしています。ストリーミングサポート
WeaveはOpenAIからのストリーミングレスポンスもサポートしています。関数呼び出しのトレース
Weaveはツールを使用する際にOpenAIによって行われる関数呼び出しもトレースします。追加データのログ記録
関数を使用して、トレースに追加データをログ記録できます。weave.log
関数を使用できます。
バッチAPI
Weaveは複数のリクエストを処理するためのOpenAI Batch APIもサポートしています。Assistants API
Weaveは会話型AIアプリケーションを構築するためのOpenAI Assistants APIもサポートしています。コスト追跡
WeaveはOpenAI APIコールのコストを自動的に追跡します。Weave UIでコスト内訳を確認できます。コスト追跡はすべてのOpenAIモデルで利用可能で、最新のOpenAI価格に基づいて計算されます。
カスタム関数のトレース
OpenAIを使用するカスタム関数もトレースできます。その方法は@weave.op
デコレーターを使用します。
次のステップ
OpenAIのトレースを設定したら、次のことができます:- Weave UIでトレースを表示する:Weaveプロジェクトに移動してOpenAI呼び出しのトレースを確認する
- 評価を作成する:トレースを使用して評価データセットを構築する
- パフォーマンスを監視する:レイテンシー、コスト、その他のメトリクスを追跡する
- 問題をデバッグする:トレースを使用してLLMアプリケーションで何が起きているかを理解する